AI 设计之梦
❦
在一个心智内部生活上一二十年之后,你也许会觉得,自己多少懂了一点心智是怎么运作的,对吧?不少 AGI 追梦人(那些自认有本事编写人工通用智能的人)似乎正是这么得出结论的。不幸的是,这种看法是错的。
人工智能在根本上,是要把心智之物还原为非心智之物。
你最好把这句话多琢磨一会儿。它很重要。
仅仅因为你生活在一个人类心智内部,并不会让你学会还原论这门技艺,因为几乎所有工作都是在你的视野之下、由大脑那些不透明的黑箱完成的。它们藏得如此之深,以至于你在内省时根本感觉不到黑箱的存在——没有任何内部感官事件会标记出:这项工作已经被委托出去了。
亚里士多德在谈论 telos——事件的终因——时,是否意识到,他其实是在把预测劳动委托给自己大脑里复杂的规划机制,也就是在问:「如果这个物体能够制定计划,它会做什么?」我相当怀疑。亚里士多德认为,大脑是用来给血液降温的器官——而他确实觉得这很重要:人类正因为脑更大,所以更加冷静,也更善于沉思。
这不就有一个 AI 设计方案了吗!我们只需要把计算机大幅降温,它就会变得更冷静、更善于沉思,也就不会像现代计算机那样一头扎进各种蠢事里。这就是伪还原论的一个例子。我的意思是:「人类更善于沉思,因为他们的血液更冷。」这种说法并没有拆开「善于沉思(contemplative)」这个词背后的黑箱。你无法借助一个内部活动部件只是纯粹物质、纯粹因果元素构成的复杂模型——典型例子就是晶体管上的正负电压,这就是模型里纯粹物质、纯粹因果的元素——来预测一个善于沉思的东西会做什么。你唯一能做的,只是想象自己处于沉思状态,由此来把握一个善于沉思的行动者会做什么。
也就是说,你只能借助共情推断来推理「沉思性」——把你自己的大脑当成一个已经把沉思性拉杆拨上去的黑箱,用它来预测另一个黑箱的输出。
你可以想象另一个行动者是善于沉思的,但这同样是一种共情推断——这种想象之所以能运作,是因为你在调节自己的大脑,让它以沉思模式运行,而不是在逐神经元地为另一个大脑建模。是的,这也许更高效,但它无法让你从零开始构造一个「沉思型」心智。
你可以说「冷血导致沉思性」,然后你得到的就只是虚假因果:你只是在写着「冷血」的盒子与写着「沉思性」的盒子之间画了一根小箭头,但你并没有往盒子里面看——你仍然是在用共情来生成预测。
你可以说:「许多微小的神经元,它们本身都只是纯粹的电化学成分,其中并没有本体论上基本的沉思性,但它们组合成一个复杂网络,并涌现出沉思性。」可这仍然只是伪还原,你仍然没有往黑箱里面看。你依然无法使用一个非共情模型,说出一个「沉思型」东西会做什么。你只是拿了一个写着「一大堆神经元」的盒子,再画一根标着「涌现」的箭头,指向另一个黑箱;那个黑箱里装着你记忆中对沉思性的感觉,而当你去想象它时,它就会让你的大脑通过沉思来与那个盒子共情。
那么,真正的还原看起来是什么样?
就像「证据感」「正当性感」这样的感受,与 E. T. Jaynes 的《Probability Theory: The Logic of Science》之间的关系。你可以整天兜圈子,说证据的本质在于它会正当化某个命题,意思是那个命题更有可能为真,但这一切都只是在调用你大脑内部关于证据感、正当性感、似然感的感觉。那一部分很容易——也就是兜圈子这部分。难的是:从那里走到贝叶斯定理。
而使一个人能够学会人工智能的那项基础心智能力,就是分辨这两者不同的能力。因此,当你说「证据就是某个观察正当化某个信念的时候」时,你就知道自己还远远没做完,甚至根本还没真正开始。但原子并不具有证据性、正当性、意义、可能性、命题性或真值;它们只是原子。只有像
| P(H|E) | = | P(E|H) | × | P(H) |
||
| P(¬H|E) | P(E|¬H) | P(¬H) |
这样的东西,才算得上真正取得了实质性进展。(而这还只是还原的第一步:如果 E 和 H 不是神秘黑箱,它们究竟是什么对象?你的假说从哪里来?来自你的创造力吗?而当没有任何一个原子是「假说」时,假说又是什么?)
另一个绝佳的真正还原例子,可以在 Judea Pearl 的《Probabilistic Reasoning in Intelligent Systems: Networks of Plausible Inference》里找到。1 你可以整天兜圈子地谈论:原因就是某种会让别的事情发生的东西;但在你理解条件独立的本质之前,你都无力造出一个会对因果性进行推理的 AI。因为你根本不会理解:当你得知防盗警报响了,接着又得知发生了一次小地震,于是便撤回「你家被盗了」这个初始结论时,究竟发生了什么——又或者说,是为什么你的大脑会神秘地决定这么做。
如果你想要一个会下国际象棋的 AI,你可以无限期地兜圈子,说你希望 AI 走出好棋——也就是那些有望赢下对局的着法,也就是那些击败对手的审慎策略,诸如此类;而当时的你也许因此对想让 AI 走出哪些着法有了一点想法,但在你提出极小极大搜索树的观念之前,这一切都毫无用处。
但是,在你知道搜索树之前、在你知道条件独立之前、在你知道贝叶斯定理之前,你仍然可能觉得,自己已经完全理解了好棋、非单调推理以及证据评估是从哪里来的。比如,你可能觉得,它们来自血液降温。
而且我确实认识很多人,他们相信智能是常识知识、大规模并行性、创造性破坏,或者直觉而非理性推理之类东西的产物,诸如此类。但这些都只是梦,它们除了指着一个人类给你看之外,根本不能让你说明智能是什么,或者一个智能接下来会做什么。等这些人着手去构建他们那神奇的 AI 时,他们造出来的不过是一套分离杠杆系统,其中所谓「知识」只是一堆贴着 apple 等标签的 LISP 词元;或者,也许他们造了一个「和人脑一样的大规模并行神经网络」。然后当什么也没怎么发生时,他们便震惊——震惊不已!
由人类部件拼起来的 AI 设计都只是梦想;它们可以存在于想象里,却无法翻译成晶体管。这一点尤其适用于那些看起来像是若干盒子、盒子之间用箭头相连、而盒子上贴着一些听起来很有意义的标签的「AI 设计」。(要看一个堪称史诗级的例子,去随便看看任何一张 Mentifex Diagram 就行。)
稍后我还会在这个主题上说得更多,但我现在就可以先告诉你一条指导原则:如果你遇到某个人说,他们的 AI 会像人类一样做出 XYZ,千万别给他们任何风险投资。你应该对他们说:『抱歉,我从没见过人脑,也没见过任何别的智能体,所以到目前为止,我没有理由相信这种东西真的能够存在。现在请你别拿人类作例子,直接告诉我:你的 AI 到底做什么,以及你为什么相信它会这么做。』即使鸟类从未存在过,只要设计固定,飞机也照样能飞;让它们留在天上的并不是类比。
所以现在你大概能明白——我希望如此——为什么,如果你想教一个人去做强 AI 的基础性工作——考虑到这门技艺显然极其困难,而且光教现成的还原(比如搜索树)都不足以让绝大多数学生学会它——那么你就可能会花很长篇幅去谈诸如还原论的精妙技艺、如何玩理性主义者的禁语游戏来剔除有问题的词语?并用其所指对象取而代之、拟人化,当然还有,如何在神秘问题的神秘答案面前过早止步。
Pearl,《Probabilistic Reasoning in Intelligent Systems》。 ↩︎